Loading...

Reich durch Verlust

Franz Rieder • Wandel der Wertschöpfung, Wachstum in Unordnung, Perpetuum immobile       (nicht lektorierter Rohentwurf)   (Last Update: 26.05.2019)

Besonders börsennotierte Großunternehmen schaffen es immer wieder, hohe Renditen auszuschütten, obwohl sie negative Gewinne bilanzieren. Schaut man auf die Passivseite der Bilanz, dann befinden sich dort die Summen aller von Kapitalgebern dem Unternehmen zur Verfügung gestellten finanziellen Mitteln. Diese imponierenden Vermögensgüter sind also keine von den Eigentümern einer Unternehmung zu dessen Finanzierung aufgebrachten oder als wirtschaftlicher Gewinn im Unternehmen belassenen Vermögen i.S. einer Selbstfinanzierung.

Die Bilanz unterscheidet strikt zwischen Mittelherkunft und Mittelverwendung und bei der Mittelherkunft zwischen Eigen- und Fremdkapital.
Eigenkapital oder auch Beteiligungskapital genanntes Vermögen steht Gläubigervermögen in Form von Fremdkapital gegenüber. Man sieht unschwer die rechtlich unterschiedliche Stellung von Eigen- und Fremdkapital. Fremdkapitalien können also durchaus als bestehende oder zukünftige Vermögenswerte eines Unternehmens bewertet werden, sind aber zunächst einmal die bilanziell ausgewiesen Schulden des Unternehmens gegenüber Dritten, also entweder Verbindlichkeiten oder Rückstellungen mit Verbindlichkeitscharakter. Gegenüber Dritten fungiert das Unternehmen also als Schuldner, der die entweder rechtlich entstandenen oder durch die wirtschaftliche Tätigkeit verursachten Verbindlichkeiten auszugleichen hat.
Auch sieht man die Unterscheidung zwischen rechtlich und wirtschaftlich verursachten Verbindlichkeiten oder Schulden, die man bei der Bestimmung, was denn die Form von Eigenkapital hat, präzise vorzunehmen hat.

So kann es sein, dass Unternehmen mit hohen Vermögenswerten und auch erkläglichen Ausschüttungen an Aktionäre oder Anleihe-Eigentümer zugleich für lange Zeit negative Gewinne ausweisen, ohne Bilanztrickserei oder Verlagerung von Ertragskonten in Steuerparadise o.ä.
Junge Unternehmen brauchen oft ein Jahrzehnt und länger, bis sie in die Gewinnzone (Reingewinn) kommen. Großunternehmen mit hohen Ausgaben für Investitionen in technische bzw. Technologie-Innovationen zeigen nicht selten einen dramatischen Unterschied zwischen Börsenwert und Bilanzgewinn.

Wie der Ausdruck Kapital gesehen und bewertet werden kann, sieht man auch speziell im Börsendiskurs. Der Börsendiskurs gründet in der alten Börsenweisheit: „An der Börse wird die Zukunft gehandelt“, will sagen, hier findet man die aus Bilanzwerten und Börsenwerten vorgestellte Wertentwicklung eines Unternehmens.

Eine der gängisten Kennziffern ist das sog. Kurs-Buchwert-Verhältnis, eine substanzorientierte Kennzahl zur Beurteilung der Börsenbewertung einer Aktiengesellschaft. Sie gibt an mit dem Wievielfachen des Buchwertes ein Unternehmen derzeit an der Börse gemessen wird. Uns interessiert in diesem und auch in den folgenden Kennziffern nicht der Validität und methodische Genauigkeit. Uns interessiert wie hier im sog. Value Investing die diskursive Übereinkunft, dass eine Aktie eines Unternehmen fair bewertet ist, wenn ihr Wert dem Buchwert in etwa entspricht1.
Auch wenn man heute andere Kennziffern im Value Investing wie etwa Cashflow (DCF-Verfahren) und Kurs-Gewinn-Verhältnisse anwendet, bleibt diese Art der Wertfestellung eines Unternehmens stets substanzorient bzw. auf die potenzielle Wertschöpfungskraft des Unternehmens bezogen.

Da im Kurs-Buchwert-Verhältnis der Kurs einer einzelnen Aktie in Relation zu ihrem anteiligen Buchwert, das heißt dem auf die Aktionäre entfallenden Eigenkapital je Aktie, gestellt wird, besagt eine Kennziffer <1, dass das Wertschöpfungspotenzial des Unternehmens noch nicht ausgeschöpft ist, oder anders gesagt, dass das Unternehmen im Moment als ein verlustbringes Unternehmen durchaus günstig für Investoren zu ‚kaufen‘ ist.
Natürlich werden daneben auch andere Faktoren, die hinzugezogen werden müssen, berücksichtigt, aber bei der, heute meist algorithmischen Vorauswahl potenzieller Gewinn bzw. Value Kandidaten hilft diese Kennziffer immer noch, sogar im elektronischen Hochgeschwindigkeitshandel.

Eine andere Kennziffer ist das sog. Kurs-Gewinn-Verhältnis (KGV), die Relation zwischen dem aktuellen Kurs der Aktie und dem Jahresgewinn pro Aktie. Sie berechnet sich, indem der aktuelle Aktienkurs durch den Gewinn je Aktie dividiert wird. Das KGV gibt also an, mit dem Wievielfachen des auf sie entfallenden Gewinns eine Aktie aktuell bewertet wird. Anders ausgedrückt, bezeichnet es die Anzahl der Jahre, in denen das Unternehmen bei konstanten Gewinnen ihren Börsenwert verdient hätte.

Bei aller prognostischen Unsicherheit, besonders was das konjunkturelle Umfeld der Aktie betrifft, lässt das KGV im Normalfall jedoch Aussagen bezüglich der Über- beziehungsweise Unterbewertung einer Aktie zu. Je niedriger das KGV, desto günstiger erscheint die Aktie im Vergleich zum Gesamtmarkt oder zu Aktien der Branchen-Wettbewerber.

Mit dieser Kennzahl wird also die zu erwartende Gewinnentwicklung eines Unternehmens im Vergleich zum Gesamtmarkt bzw. des Wettbewerbs prognostiziert, heute natürlich wieder lediglich als Algorithmus zur Vorauswahl benutzt, nun nicht für den Value-Investor sondern eher für den Growth-Investor.

Gerade dieser Typ Investor hat nicht selten Titel mit hohen, zweistelligen KGVs im Portfolio, also Titel von Gesellschaften, die massiv Verluste schreiben oder zwar bestens kapitalisiert sind, ohne eine an zählbaren Gewinnen erkennbare Geschäftstätigkeit auszuweisen. Solche Unternehmen, die wir aus der Branche der sozialen Plattformen und IT-Start-Ups kennen, erscheinen besonders an der Gewinnschwelle als sehr teuer, sind aber möglicherweise für den versierten Investor eine durchaus lohnende Anlage wie auch für die Gesellschaft die Aussicht, durch Einwerbung hoher Summen von Fremdkapital später Gewinne aus Eigenkapital zu erzielen nicht schlecht ist.

Eine letzte Kennziffer, die wir hier in diesem Kontext kurz anreißen möchten, ist die sog. Marktkapitalisierung, oft auch Börsenkapitalisierung genannt. Sie ist eine Kennzahl für Aktiengesellschaften, die den aktuellen Marktwert eines Unternehmens wiedergibt. Sie kann errechnet werden indem die Anzahl ausstehender Aktien – und nicht wie oft angegeben wird, Aktien, die das Unternehmen selbst hält – mit dem aktuellen Aktienkurs multipliziert wird. Die Marktkapitalisierung ist mitunter ein entscheidendes Kriterium für die Aufnahmen in bestimmte Börsen-Indizes.

Und auch hier erkennen wir, dass der ökonomische Terminus Kapital weder eine feste Größe ist, noch einem Ist-Zustand des Unternehmens allein entnommen ist. Kapital in der Bedeutung von Value ist etwas anderes als in der Bedeutung von Growth oder Marktkapitalisierung.
Gerade die mit Abstand am besten marktkapitalisierten Unternehmen aus dem Silicon Valey waren jahre- bis fast ein Jahrzehnt lang Unternehmen, schlicht gesagt, mit viel Geld (Cash), aber auch enormen Verlusten. Reich also ist nicht reich. Investoren haben gerade dann, wenn sie in solche Unternehmen investiert haben, als die Verluste am größten waren, im Verlauf der Jahre die größten Kursgewinne eingefahren. Dies bestätigt sich auf atemberaubende Weise am Ende des Jahres 2017 an der Kryptowährung Bitcoin, deren gigantischer Marktkapitalisierung ein nicht einmal rudimentär zu nennender Markt, eine überlastete Technik, ein grenzenloses Risiko und eine Volatilität gegenüber stehen, die einem Wechselstrom ohne Gleichrichter ähnlich sieht, nicht aber einem realen Marktgeschehen.



Wandel der Wertschöpfung


In den letzten zwei Jahrhunderten allein hat sich die Wirtschaft der westlichen Industriestaaten stark verändert. Am deutlichsten sieht man das beim Begriff der Wertschöpfung. Aus der Sicht der Volkswirtschaftlichen Gesamtrechnung (VGR) ist das Jahr 2005 von Bedeutung, seit dem nicht mehr die Marktpreise, sondern die Herstellpreise der VGR zugrunde gelegt werden. Um den Einfluss des Staates auf die Preise herauszurechnen, da in den Marktpreisen oft Gütersteuern und Gütersubventionen einfließen, wird die Wertschöpfung zu Herstellpreisen ermittelt.

Man kommt unweigerlich und direkt auf die Vermutung, dass auch bei den Herstellerpreisen eventuell stattliche Einflüsse enthalten sein können, was ja auch und in einem zunehmenden und unterschiedlichen Maße je nach Unternehmen und Branche zutrifft. Wir müssen an dieser Stelle nicht kleinteilig argumentieren und lassen diese staatlichen Effekte einmal beiseite.

Mit der Ermittlung der Wertschöpfung im Industriezeitalter einher ging ein vertikal-lineares Denken, welches Wachstum als die Differenz der Veränderung der VGR auf die beiden Produktionsfaktoren Arbeit und Kapital zurückführte. Demnach resultierte Wachstum auf der relativen Ersetzung von Arbeit durch Kapital. Die Steigerung der Arbeitsproduktivität oder des Outputs per Arbeiter führt also in der Folge zu einer tendenziell zunehmenden Rate von Kapital zu Arbeit, was wir in einem anderen Zusammenhang bereits am Begriff des tendenziellen Falls der Profitrate diskutiert haben.

Dieser lineare Zusammenhang zwischen Arbeit und Kapital in der klassischen Wachstumstheorie wurde aufgrund der sichtbaren Folgen der technisch-industriellen Entwicklung, versucht, in die Formel: Y=F(K,L), wonach also das Wachstum einer Nation (Y) eine Funktion (F) aus Kapital (K) und Arbeit (L) sei, einzubauen. In der neuen, auf die klassische folgende Wachstumstheorie, sah man den Zusammenhang zwischen technischer Entwicklung und menschlicher ‚Qualifizierung‘ – es musste ja eine Art Learning by doing und Training sowie Ausbildung der Fähigkeit, eine Eisenbahn zu fahren, vorhergehen – und erweiterte die Formel um eine Kategorie innerhalb der Wachstumsmessung. Wachstum erklärte sich nun als Y=F(K,HL), wobei der technische Fortschritt mit der menschlichen Arbeit zusammen gebracht wurde als Humankapital (HL).

In der neuen Wachstumstheorie wird also der Faktor Arbeit selbst in einem gewissen Sinne zu einem ‚Kapitalfaktor als an Personen gebundenes Wissen bzw. als an Personen gebundene Fähigkeiten, oder volkswirtschaftlich gesprochen, als ein Wissenspool einer Volkswirtschaft in Form von dokumentiertem Wissen. Wir erkennen hier schon die Engführung von Arbeit, technischem Fortschritt und Wissensgesellschaft wie auch die Engführung von Wissen als dokumentiertes Wissen.
Gleichwohl bleibt diese Denkweise vertikal, also an die technische Entwicklung gebunden und linear als die technische Entwicklung eine direkte Verbindung zum Wachstum mittels zunehmender menschlicher Fähigkeiten aus zunehmendem Wissen behauptet.

Der Begriff Wertschöpfung erstreckt sich heute auch auf den Staat und private Organisationen ohne Erwerbszwecke2, ist also nicht mehr allein beim Faktor Arbeit auf Erwerbsarbeit beschränkt. Die inhaltlichen Wandlungen sind über die vielen Jahre kaum mehr nachzuhalten, aber en gros zeichnen sie eine Linie von den sog. Physiokraten3 über die Ansätze des „Material Product System“4 hin zu dem heute fast ausschließlich benutzten „System of National Accounts“ (SNA) der Vereinten Nationen. Darin zählt die Gesamtheit der erzeugten Waren und Dienstleistungen, also ein umfassender Produktionsbegriff, der auch unentgeltlich abgegebene Dienstleistungen des Staates und der privaten Organisationen ohne Erwerbszweck als Teile der Wertschöpfung betrachtet.

Die teils heftige Diskussion im Ausgang des Feminismus‘, warum Haushaltsarbeit und Kindererziehung nicht in die VGR mit einfließen, blieb unbefriedigend und die Frage unbeantwortet. Ebenso die neuerdings aufziehende Überlegung, ehrenamtliche Tätigkeiten in die volkswirtschaftliche Gesamtrechnung mit einzubeziehen, da diese Tätigkeiten ja mittlerweile ein immenser gesellschaftlicher und ökonomischer Faktor sind, die sogar mehr als die staatlichen Leistungen ohne Erwerbszwecke in nennenswertem Ausmaß nur ersetzen.

Würde man allein diese beiden Bereiche des Ehrenamtes und der Hausarbeit mit ins Kalkül ziehen, hätte das erheblich Auswirkungen auf die volkswirtschaftliche Wertschöpfungsentwicklung.
Wachstum oder Wertschöpfungsentwicklung ist eine gesellschaftliche Praxis, die nicht mehr allein im Rahmen von Erwerbstätigkeit (Arbeit) beschrieben und rechnerisch ermittelt werden kann.

Die Wertschöpfungssrechnung innerhalb eines Unternehmens ergibt sich aus der Brutto-Erfolgsrechnung, kurz Erfolgsrechnung. Der Beitrag eines Unternehmens zum Volkseinkommen ist dann das von dem Unternehmen erzeugte Waren- und Gütereinkommen. Das ergibt sich aus den gesamten Erlösen, worunter die nach außen abgegebenen Güterwerte zusammen gefasst sind, von denen die ‚Vorleistungskosten‘, also die von außen hereingenommenen Güterwerte, d.h. Leistungen vorgelagerter Produktionsstufen abgezogen werden.

Das von Unternehmen erzeugte Gütereinkommen ist gleich dem darin erzeugten Geldeinkommen, das wiederum die Summe von Arbeitserträgen, Gemeinerträgen (Steuern und Abgaben) und Kapitalerträgen im Saldo ist. Und ebenso sind die von außen hereingenommenen Güterwerte als Geldwerte in den Vorleistungskosten enthalten. Die Wertschöpfung erfasst damit alle erzeugten Werte, insofern sie als Geldwerte darstellbar sind. Ein außerökonomischer Wert ist somit zugleich ein nicht pekuniärer Wert wie umgekehrt.
Wenn aber nun alles in Geldform sich repräsentiert, alle Waren- und Güterströme in Geldströmen abgebildet werden, entsteht der Eindruck, dass Geld und Güter untrennbar zusammen gehören und sich gegenseitig linear und in ihrer Entwicklung vertikal repräsentieren. Der ‚Mehrwert‘ oder das Wachstum in einer volkswirtschaftlichen Gesamtrechnung verwundert daher nicht als reine, quantitative Steigerung der Produktion von Waren und Gütern bestimmt zu sein.

Mehr Waren und Güter erzeugen, von einem bestehenden Kapitalstock ausgehend, mehr Geld, welches als Investiv- und Humankapital wieder im Unternehmen zu einer quantitativ breiteren und qualitativ höheren Produktion wiederum mehr und bessere bzw. billigere Waren und Güter zu produzieren ermöglicht. In dieser Zirkularität einer in sich geschlossenen Volkswirtschaft ergibt sich dann auch das berühmte Gütermarkt-Gleichgewicht, als die geplante Realkapitalbildung, also die ausstehenden Investitionen nicht mehr den Kapitalstock belasten, sondern aus einer Art zinslosem Sparen, dem Cashflow, finanziert werden. Dann sind die Investitionssumme und Sparsumme identisch und alles scheint in bester Ordnung; mitnichten.



Wachstum in Unordnung


Mit dem Gütermarkt-Gleichgewicht hat das vertikal-lineare Denken des Industriezeitalters seine höchste Blüte erreicht. Alle Produktionsfaktoren schienen in der einen Formel der Volkswirtschaftlichen Gesamtrechnung aufzugehen und dessen Veränderungen Wachstum oder Rezession zu repräsentieren; sogar mit einer gewissen, wenn auch kleinen Prognostik. Dieses prognostische Element aber trug nur als Skalenwert, als Optimierung innerhalb einer Gleichung gegebener Faktoren wie wir auch in einem vorherigen Titel: Schlaflied vom kontinuierlichen Wachstum in diesem Kapital auszudrücken versucht haben.

Jede Form oder Annahme einer Optimierung sieht nach dem klassischen Modell der Ökonomik bis hin zur modernen Theorie des Wachstums den volkswirtschaftlichen Reichtum verkörpert in der „größtmöglichen Vervollkommnung der Produktivkräfte der Arbeit“5. Wenn Smith von Produktivkräften der Arbeit spricht, dann hat er durchaus (technischen) Fortschritt in Form von „Arbeitsteilung“ im Auge, also etwas, was dem Faktor Arbeit so nicht natürlich zukommt, also als ein exogener Faktor bezeichnet werden muss. Wachstum käme dann nicht aus der Arbeit, sondern aus der Arbeit fremden Bereichen wie etwa technische Erfindungen, die dann quasi endogenisiert, also marktgängig gemacht werden müssen, um ökonomische Wirkung zu entfalten.

Effizienz ist also nicht allein eine Art Ertüchtigung, ein Freisetzen menschlicher Leistungsfähigkeit, nicht einmal als learning by doing. Seit dem Beginn des 16. Jahrhunderts sehen wir eine Zunahme an Effizienz, d.h. vor allem, dass ökonomische Strukturen und Arbeitsweisen sich ausbilden, die Versorgung einer Gesellschaft mit Gütern, vor allem des täglichen Bedarfs, immer besser und schneller zu gewährleisten, mithin zu niedrigeren Preisen, so dass das Gemeinwesen und seine Mitglieder umfassender der Zahl nach wie der Menge und Qualität bei den Gütern profitierte. Gleichwohl war die Verteilung der Güter ungleichmäßig.

Wenn wir heute über Effizienz und Effizienzsteigerung sprechen, dann bezeichnen wir damit Gruppen von Gütern oder strukturell ähnliche Maßnahmen, also unterschiedliche, aber auf ein gemeinsames Ziel hin gerichtete Maßnahmen, die mit den geringsten volkswirtschaftlichen Kosten verbunden sind. Dieses ökonomische Prinzip funktioniert nur innerhalb einer Ordnung oder Matrix, die eine Messung und somit einen Vergleich möglich macht.

Wachstum auf Basis dieses Denkmodells ist lineares Wachstum, ist Preis-, Mengen- und Variantenwachstum. Dieses Denkmodell ist gewissermaßen zeitlich angesiedelt zwischen zwei Innovationen, die sich selbst aber durch dieses vertikal-lineare Denken nicht erfassen lassen. Im Laufe der letzten 120 Jahre lassen sich leicht mindestens sieben Konjunktur- bzw. Wachstumswellen identifizieren, die zugleich zumindest bei den ersten drei einher gehen mit Strategiewellen bzw. strategischen Richtungswechseln auf breiter mikroökonomischer Basis.
Das erste große Wachstum war verbunden mit der Monopolbildung, wie wir sahen. Und diese wiederum war ökonomisch betrachtet von zwei Faktoren geprägt, einmal die Kapitalisierung von Skaleneffekten und deren Akkumulation zu Unternehmenskonzentrationen. Eigentlich ist Konzentration nur ein Ergebnis von skalierter Produktion, wobei diese notwendige Bedingung jener ist.

Die zweite Strategiewelle war geprägt von Kooperation und Integration, bedingt durch eine Reihe politisch-regulativer Maßnahmen und Gesetze, was dazu führte, dass den Unternehmen vor- und nachgelagerte Wertschöpfungsstufen eingegliedert wurden.

Darauf folge eine Zeit der Risikostreuung. Unter dieser Zielvorstellung wurden Unternehmen mit differenten Geschäftsmodellen gekauft und teilweise zu global agierenden Handelsgesellschaften zusammengeführt. In Deutschland wurde die Deutsche Bank zur „Deutschland AG“, bevor man dann in den Achtziger Jahren die zugekauften Unternehmen wieder veräußerte. Und diese Veräußerungswelle stand unter dem Paradigmenwechsel, weg von der Diversifizierung hin zur Konzentration auf die unternehmerische Kernkompetenz. Also wechselte die Unternehmensstrategie wieder in Richtung Wettbewerbs- und Marktführerschaft.

Bis hierhin waren das klassisch lineare Denken und die Unternehmenstrategien noch eine Einheit. Es wurden strategische Ziele formuliert, die den wissenschaftlichen Diskursen in einem fast zeitlich messbaren Rhythmus folgten und die die Handlungen und Maßnahmen im Management der Unternehmen bestimmten. Ziele wurden strategisch formuliert, zu Vorgaben bis in die Quartalsplanungen heruntergebrochen und minutiös kontrolliert.
Vorgänge von Zentraliserung folgten solche der Dezentralisierung, Deregulierung folgte ihrem Counterpart, Protektionismus und Renationalisierung wie Repatriierung wurden Schlagworte eines um Richtung ringenden, fast schon sektenartig vorgetragenen Strategie-Diskurses.

Die neuesten drei Wachstumswellen stehen in engerem Zusammenhang mit Digitalisierung und Globalisierung und kennzeichnen sich dadurch, dass keine wissenschaftlichen Diskurse wie auch keine neuen Unternehmensstrategien diesen vorher gehen; nicht einmal in einem seriösen Ausmaß begleiten. Das hat einige Konsequenzen. In der aktuellen Phase überlagern sich unterschiedlichste Strategien auf den gesamten Unternehmensebenen bzw. -bereichen. Sie sind Übertragungen aus unterschiedlichen Industrien und zugleich auch aus unterschiedlichen Unternehmensbereichen unterschiedlicher Unternehmenstypen.

Diese Entklassifizierung und Enttypisierung hat zur Folge, dass bisher bestehende Überzeugungen und Handlungskalküle außer Kraft gesetzt werden, in Unordnung geraten. Wenn etwa Unternehmen oder Unternehmensteile gekauft werden, führt das nicht selten zu einem Übernahmewettbwerb im gesamten Industriezweig, wie heute zu sehen in der Automobilbranche, die reihenweise und vertikal durch die Branche branchenfremde Unternehmen kauft, deren Unternehmenswerte deutlich über den Marktwerten liegen; eigentlich außer im good will kaum anzugeben sind.

Sind erst einmal die Preise für Unternehmensübernahmen oder -käufe hoch, ist die Pipeline randvoll, ohne, dass es wie heute zu einem Überangebot kommt, etwa in der IT-Branche und auf dem angeschlossenen Arbeitsmarkt. Der Nachfrage-Boom nach Start-ups allein in Verbindung mit einer Kaufpreisfinanzierung, die aufgrund der von den Notenbanken provozierten Niedrigzinsphase fast nichts kostet, wirbelt wie in einem Sandsturm die Branchen durcheinander. Unternehmenswerte repräsentieren nicht mehr den Wert des Unternehmens, eines Produktes oder Portfolios, eine besondere Technik entgegen allen Lautsagungen und schon gar nicht die Stellung des Kandidaten auf den Waren- und Konsumgütermärkten.



Perpetuum immobile


Der Spiegel ist zerbrochen. Das Perpetuum mobile von der Decke auf den Boden in seine Einzelteile zerfallen. Von der Klassik bis zu deren monetärkeynesianischen Ausprägung ist die Rede vom Markt und den Tauschprozessen in eine fundamentale Krise geraten. Und die Diskurskrise ist der fraktale Ausdruck einer eben solchen tatsächlichen Entwicklung, in der Hochkonjunktur und Vollbeschäftigungen keinen Widerspruch mehr bilden zu hochbrisanten Wirtschaftskrisen, die sich darin ausbilden und teilweise trend-kontraproduktiv halten.

Das Say’sche Theorem, wonach der Markt über Angebot und Nachfrage den Wert der Waren und Güter, mithin der Produktion als akkumulierte Verzinsung des Realkapitals regelt, ist außer Kraft gesetzt. Und die Zwischenstufen dieses Denkens im Keynesianismus wie dessen theoretischen Nachfolgesystemen, die lediglich noch davon sprechen, dass Waren und Güter einzig dafür hergestellt werden, um andere Waren und Güter tauschen zu können, folgen demselben Irrtum.
Ob produziert wird, um Geld zu verdienen und zu mehren, oder ob Geld als die fundamentale Motivation von Produktion ausfällt, also als ein neutrales Kriterium aufgefasst wird, spielt in der Wirklichkeit keine Rolle. Ob wir von einem Realtauschdenken diesen Bereich zu erfassen suchen, der ein wesentliches Element im Dasein der Menschen bestimmt, oder von einem Mehrwertdenken, beide gehen an der Sache vorbei.

Nicht in Nischen, sondern im Kern folgen bei Unternehmenskäufen z.B. deren Wertbestimmungen wie wir eben sahen nicht mehr den Kriterien von Anbieter- oder Nachfragemärkten. Sie folgen weit mehr einer tatsächlichen und vorgestellten Konjunkturentwicklung, die einen Marktpreis formulieren, der sich an den Finanzmärkten realisiert, der aber auch außerhalb des Börsengeschehens immer schon stattfand.

‚Deals are driving deals‘, dieses alte Konjunkturmotto gewinnt zunehmend auch die Einsichten einiger Vertreter der Ökonomik, die dem Gedanken der Entkopplung von Kapital und Arbeit, von Unternehmens- und Absatzmärkten mehr und mehr folgen. Der schöne Glaube des homo oeconomicus ist dann natürlich dahin. Was anderes als der Glaube an die Normalverteilung, an das Funktionieren von Angebot und Nachfrage in einem einigermaßen stabilen Markt-Gleichgewicht, am besten unter Voraussetzung eines vollständigen Wettbewerbs aber steht denn infrage?

Einiges. Da kam zuerst der Glaube an die Beständigkeit von Gold unter die Räder. Gold ist heute eine Risikoanlage wie jedes andere Wertpapier und man mag es sehen wie das berühmte Vorbild: das Glas ist halb voll oder halb leer. Für den einen ist Gold wie eine Versicherung in Jahren heftig schwankender Kurse an Aktien- und Rentenmärkten. Hat das Edelmetall tatsächlich in den letzten zweitausend Jahren zum Kaufkrafterhalt beigetragen? War es tatsächlich ein Hort der Sicherheit in Krisenzeiten?

So argumentieren jene, die an der Normalverteilung festhalten wollen und verweisen darauf, dass sein Wert vor der Finanzkrise von etwa 1.200 US-Dollar auf fast zweitausend nach der Krise gestiegen ist.
Andere sehen im Edelmetall ein eben so volatiles Investment wie alle anderen Spekulationsprodukte. Es kann im Wert mindestens so stark schwanken wie ein beliebiger Aktienindex und deshalb empfehle es sich, nicht mehr als fünf bis fünfzehn Prozent davon dem privaten wie auch dem institutionellen Portfolio beizumischen.

Ganz im Sinn dieser Risikostrategie passen all jene Verschwörungstheoretiker, die Empfehlungen von größeren Portfolioanteilen in Gold ausgehen, weil sie meinen, dass gerade in Krisenzeiten mit einer Kiste Gold die besten Renditen ganz sicher einzufahren sind, komme die Krise doch mit Sicherheit und immer heftiger. Nicht wenigen dünkt dies geradezu einleuchtend und unerschütterlich, weil doch Krise und Risiko wie Naturgesetze der Ökonomie funktionieren.

Sogar Ökonomen des bekannten Ifo-Instituts aber raten deutschen Sparern, ihre Ersparnisse besser in unternehmerische Investitionen, also in Aktien börsennotierter Unternehmen zu stecken, oder auch in Immobilien, wo Wohnraum knapp und teuer ist. Eine Garantie zum Erhalt von Vermögen und Kaufkraft geben sie natürlich nicht, sehen aber, dass solch ein Verhalten sowohl aus volkswirtschaftlicher wie privater Sicht sinnvoller erscheint. Was sie nicht sagen, ist, wie denn eigentlich ökonomische Systeme bzw. Prozesse funktionieren und ganz besonders die Finanzmärkte.

War es schon schwer und mit erheblicher Sachmühe verbunden, die orthodoxen Vorstellungen, wie Finanzmärkte funktionieren, so es eine Theorie vor der Finanzkrise 200//8 überhaupt gab, nach zu vollziehen, so hat sich die Lage danach noch erschwert. Glaubte die Orthodoxie auf dem Feld der Finanzmärkte eine Welt zu sehen, in der die Gesetze der Normalverteilung herrschen, so setzte sie sich zunehmend einer radikalen Kritik aus.
Denn nach orthodoxer Auffassung sind veritable Krisen auf den Finanzmärkten eher selten wie Grillfans im veganen Gemüseladen. Langfristig strebe alles nach statistischer Wohlverteilung, die die „misbehaviors“ eines „Schwarzen Montags“ die Asien- und die Rußlandkrise, die Krise bzw. den Untergang des Neuen Marktes und die Finanzkrise 2007/8 nebst der folgenden Staaten-Finanzkrise in Europa als „Normalfälle“ der Ökonomie endogenisieren. Je länger die Liste wurde desto kürzer wurden die Phasen, in denen die Othodoxie nicht unter Fundamentalkritik geriet. So auch die Annahme des homo oeconomicus, diesem Jedermann, gebildet aus Schwarmintelligenz.

Mandelbrot und Hudson6 waren nicht die ersten, aber die, die der Othodoxie der Schande gegenüber der Empirie bezichtigten. Das Fundament der klassischen Ökonomik wurde unter dem Blick auf die Finanzmärkte immer brüchiger. Volatilität und Fragilität, wohin man auch schaute und über alle Märkte wie über Jahrhunderte hinweg. Turbulente Märkte kamen in den Blick, deren Bewegungen überhaupt nicht mehr in eine Vorstellungswelt passten, die die Ereignisse als Zufälle in einer Folge von normaler Verteilung verstand. Finanzmärkte erwiesen sich als so nicht berechenbar, im Gegenteil. Sie waren wesentlich volatiler, als die Vertreter der klassischen Ökonomik wie auch des Keynesianismus wahrhaben wollten. Die Kurse spielten gewissermaßen ab da verrückt, folgten keiner Annahme statistisch dichter Wahrscheinlichkeiten. Nach den sog. Zentralen Grenzwertsätzen sollte eine große Anzahl von unabhängigen Zufallsvariablen asymptotisch einer stabilen Verteilung folgen7, aber die Börsen ließen selbst daran noch zweifeln, fällt doch ein Großteil der Kursbewegungen auf ziemlich enge Zeitspannen in varianten Abfolgen und durchriß so die mathematisch feinmaschigen Grenzwertsätze.

Für Mandelbrot und Hudson waren diese wilden, unberechenbaren Kurssprünge Beweis genug, dass klassisches Denken hier versagt, versagen muss. Dessen Weltbild, gründet auf der Illusion, nicht nur die Börsen und die Ökonomie, sondern die Welt insgesamt sei berechenbar und damit beherrschbar. Die traditionellen Verlaufsmuster der Kurse wurden ebenso zum „Narrengold“ wie die Idee eines intrinsischen Wertes eines Vermögensgegenstandes wie eines Gutes oder einer Ware auf den Tauschmärkten erklärt. Die klassische Portfolio-Theorie, die zugleich die Grundlage der Kapitalmarkttheorie8 bildete, wonach im Vergleich zu einer Investition eines gesamten Betrags in ein einziges Risikopapier sich durch breite Streuung des Betrags auf mehrere verschiedene Titel (Diversifikation) das Risiko der Anlage (gemessen an der Varianz der Rendite) vermindern lässt9, müsse im Lichte einer fraktalen Geometrie der Märkte neu überdacht werden.



Anmerkungen:

1 Beispiel: Laut Jahresabschluss hat ein Unternehmen 5500 Millionen Euro Eigenkapital und es bestehen keine Fremdanteile am Eigenkapital. 201 Millionen Aktien sind von dem Unternehmen im Umlauf. Hieraus errechnet sich einen Buchwert von 27,36 Euro je Aktie. Ein aktueller Aktienkurs von 25 Euro geteilt durch diesen Wert ergibt ein KBV von 0,91.

2 Soweit der Staat und private Organisationen ohne Erwerbszweck sich als Nichtmarktproduzenten betätigen, wird die Bruttowertschöpfung durch Addition der Aufwandsposten (Arbeitnehmerentgelt, Abschreibungen) ermittelt.
Die Bruttowertschöpfung wird bei Marktproduzenten als Differenz zwischen dem Produktionswert (zu Herstellpreisen) und den Vorleistungen berechnet. Auch für Kreditinstitute und Versicherungsunternehmen gilt eine besondere Berechnungsmethode. So werden bei den Banken neben Verkäufen, Provisionen und Gebühren eine unterstellte Bankgebühr aus der Differenz zwischen Soll- und Habenzinsen berücksichtigt. (Gabler)

3 In der zweiten Hälfte des 18. Jh. in Frankreich entstandene gesellschafts- und wirtschaftstheoretische Schule, die maßgeblich von ihrem Begründer Quesnay, 1694–1774, geprägt wurde (weitere Vertreter: Cantillon, Gournay, Mercier de la Revière, Mirabeau, Turgot).

4 Das für die Zentralplanungswirtschaften erstellte „Material Product System“ (MPS) stellt lediglich auf die Erzeugung materieller Güter ab und lässt die Dienstleistungen der nicht-materiellen Sphäre außer Acht.

5 A. Smith, Eine Untersuchung über Natur und Wesen des Volkswohlstandes, Jena: G. Fischer, 1923 1. Band Buch 1 Kap. 1 S. 17.

6 Benoit Mandelbrot/Richard L. Hudson: The (mis)behavior of markets. A fractal view of risk, ruin and reward. Basic Books, New York 2004

7 Vgl. John P. Nolan: Stable Distributions - Models for Heavy Tailed Data. Birkhauser, Boston 2011, S. 22

8 Capital Asset Pricing Model (CAPM)

9 Die moderne Portfoliotheorie geht auf eine Arbeit des US-amerikanischen Ökonomen Harry M. Markowitz aus dem Jahr 1952 zurück, hat sich aber mittlerweile im praktischen Einsatz als falsch herausgestellt.



Foto: monika m. seibel www.photographie-web.de



zurück ...

weiter ...




Ihr Kommentar


Falls Sie Stellung nehmen, etwas ergänzen oder korrigieren möchten, können sie das hier gerne tun. Wir freuen uns über Ihre Nachricht.